知识图(KG)通常不完整,我们经常希望推断出现有的新事实。这可以被认为是二进制分类问题;我们的目标是预测新事实是真或假的。不幸的是,我们通常只有积极的例子(已知事实),但我们也需要负面的例子来训练分类器。要解决此问题,通常使用负面采样策略生成否定示例。但是,这可以产生可能降低性能的假否定,是计算昂贵的,并且不会产生校准的分类概率。在本文中,我们提出了一种培训程序,通过向损失函数添加新的正则化术语来消除对负面采样的需要。我们的两个关系嵌入模型(DISTMULT和简单)的结果显示了我们的提案的优点。
translated by 谷歌翻译